#Dario Amodei
Anthropic CEO獨家專訪, 回應川普及五角大廈合作衝突
城主說 | 一直對Anthropic的CEO Dario Amodei 對中國的偏見頗有微詞, 但這一次, 在OpenAI, Google 光速滑跪的情況下, Amodei能頂著懂王的大棒, 拒絕五角大廈要求, 堅持原則死扛, 確實讓人刮目相看, 必須說他確實有自己原則.這是今天ABC的最新專訪, 我看Amodei臉色都不好了, 畢竟這壓力肯定山大, 以下是本城對訪談的全文整理.願世界和平.Anthropic首席執行長Dario Amodei今天就公司與美國國防部之間的合作僵局接受了深度訪談。Amodei堅持認為,保衛國家不應以犧牲核心價值觀為代價,而這種堅持正讓 Anthropic 面臨前所未有的政治與法律壓力。Dario Amadei闡述了公司在國家安全合作中堅持的兩大紅線:反對國內大規模監控和全自動武器。訪談還涉及了政府發出的供應鏈風險警告、最後通牒的性質、私營企業在技術倫理中的角色,以及法律滯後於 AI 發展等核心議題。核心觀點:“我們同意五角大廈 99% 的用例,但在事關民主價值觀的 1% 極端場景上,我們必須劃定紅線。”“國內大規模監控在 AI 時代已走在法律前面,技術的發展速度讓現行監管體系顯得力不從心。”“當今 AI 系統存在根本的不可預測性,在解決可靠性問題前,部署全自主武器是不負責任的。”“政府將一家美國公司指定為‘供應鏈風險’是前所未有的報復性行為,這通常只針對外國敵對勢力。”“反對政府的不當擴張是‘最美國化’的行為,愛國主義並不意味著盲目服從權力,而是捍衛原則。”“AI 計算量每四個月翻一番,這種指數級增長要求國會必須盡快建立符合時代需求的安全護欄。”九十九比一的博弈:在安全與紅線之間平衡在Amodei的敘事中,Anthropic 並非外界傳聞中的“反政府者”,相反,它是與美國國家安全機構合作最積極的 AI 公司之一。Amodei透露,Anthropic 是首家將模型部署到機密環境、並為情報部門定製模型的企業。然而,這種深度合作在兩個具體領域戛然而止:國內大規模監控與全自動武器系統。“我們必須以捍衛民主價值觀的方式來保衛國家,” Amodei強調。他指出,AI 的強大分析能力正使“合法但不合理”的監控成為可能,例如政府購買私人資料並通過 AI 進行大規模畫像。而在武器化方面,他堅持認為 AI 尚未達到支撐全自主作戰的可靠性水平。“任何與 AI 模型打過交道的人都明白,它們存在一種基本的不可預測性。” 這種技術上的不成熟,結合缺乏人類問責機制的風險,構成了 Anthropic 堅守的紅線。最後通牒與“懲罰性”的供應鏈指定訪談揭示了 Anthropic 與五角大廈談判破裂的驚人細節。Amodei描述了一個充滿火藥味的過程:政府給出了為期三天的最後通牒,要求公司放棄紅線,否則將被指定為“供應鏈風險”。儘管 Anthropic 試圖提供折中方案,並承諾在脫離過程中保證服務連續性,但五角大廈並未在實質性條款上做出任何讓步。令Amodei感到憤慨的是政府採取的後續手段。川普政府通過社交媒體宣佈 Anthropic 為供應鏈風險,並威脅動用《國防生產法》。Amodei直言不諱地指出:“這種指定從未應用於一家美國公司,它通常針對的是像卡巴斯基或中國晶片商那樣的對手。” 他認為這種將愛國企業與外國間諜軟體歸為一類的做法,是完全的報復性和懲罰性行為,旨在通過製造恐懼和不確定性來打壓私營企業的獨立意志。技術指數級增長下的法律真空為何一家私營公司的 CEO 要承擔起定義國家安全邊界的角色?Amodei將此歸咎於法律的嚴重滯後。他指出,AI 的發展遵循著驚人的指數定律,計算量每四個月就翻一倍,而國會和司法解釋仍停留在舊時代。“國會不是世界上動作最快的機構,而我們這些人在前線看到了這項技術的真實威力,” Amodei說道。他認為,雖然長期來看,制定規則應是國會的職責,但在法律“追趕”技術之前,技術開發者有義務劃清界限。他呼籲建立一種新的“民主對話”,探討如何在不削弱對抗威權對手能力的前提下,防止政府濫用技術權力。他堅持認為,這不僅是技術問題,更是維護《第四修正案》精神的憲法問題。“最美國化”的抗爭:重塑愛國主義敘事面對“覺醒(Woke)”或“左翼意識形態驅動”的指責,Amodei表現得異常冷靜。他拒絕捲入黨派政治,強調 Anthropic 的立場基於專業知識和中立原則。他提到自己曾與多位不同政見的政要合作解決能源和醫療問題,試圖證明公司的決策並非出於政治偏見。在訪談的最後,Amodei重申了他的身份認同:“我們是愛國的美國人,我們所做的一切都是為了支援美國國家安全。” 但他同時賦予了愛國主義更深層的含義:即行使憲法賦予的權利,公開發言並反對政府的過度擴張。他堅稱。對於 Anthropic 而言,堅守那 1% 的紅線,正是為了確保在贏得 AI 競賽後,美國依然是那個值得保衛的民主國家。儘管面臨法律挑戰和政治壓力,Amodei表示公司已做好在法庭上捍衛權益的準備,並對挺過這場危機充滿信心。Web3天空之城全文整理 合作背景與兩大紅線主持人: 感謝您抽出時間。您是Anthropic的首席執行長達里歐·Amodei,我的第一個問題是,為什麼您不無限制地向美國發佈Anthropic的人工智慧系統?Amodei: 是的。我想我們應該稍微回溯一下,提供一些背景資訊。Anthropic實際上是所有人工智慧公司中與美國政府合作最為積極進取的。與美國政府合作。我們是第一家將我們的模型部署到機密環境中的公司,我們是第一家為國家安全目的定製模型的公司。我們已經部署在情報部門和軍隊中,用於網路安全、作戰支援行動、各種此類應用。而且,我們之所以這樣做,是因為我相信我們必須保衛我們的國家。我相信我們必須保衛我們的國家,使其免受對手的侵害。因此,我們一直非常積極進取。我們有一個相當大的公共部門團隊。但是,我一直認為,當我們保衛自己免受專制對手的侵害時,我們必須以捍衛我們民主價值觀和維護我們民主價值觀的方式來進行。因此,我們告訴國防部,我們同意他們基本上想要的98%或99%的所有用例,除了我們關注的兩個用例之外。其中一個是用例是國內大規模監控。在那裡,我們擔心的是,人工智慧可能會實現以前不可能實現的事情。一個例子是,比如將私營公司收集的資料,由政府購買,並通過人工智慧進行大規模分析。這實際上並不違法。只是在人工智慧時代之前,它從未有用武之地。因此,國內大規模監控在某種程度上已經走在了法律前面。技術發展得太快,已經跟不上法律的步伐了。這是第一種情況。案例二,是全自主武器系統。這不是目前在烏克蘭使用的或部分自主武器。這是指那些無需任何人為干預即可發射的武器。現在,即使這些武器,我認為,那些,我們的對手,可能在某個時候會擁有它們,所以或許,它們在某個時候可能對維護民主是必需的。但我們對它們存有一些擔憂。首先,當今的人工智慧系統遠未達到製造全自主武器所需的可靠程度。任何與人工智慧模型打過交道的人都明白,它們存在一種基本的不可預測性,而這在純粹的技術層面上我們尚未解決。而且還有一個監管問題。如果你擁有一大批無人機或機器人,它們可以在沒有任何人工監督的情況下運行,沒有人類士兵來決定目標是誰、向誰開火,這會引發擔憂。我們需要就如何監督這些系統展開對話。而我們還沒有進行那次談話。談判僵局與最後通牒主持人: 因此,我們堅信,那兩種用例不應該被允許。五角大廈告訴我們,他們原則上同意了這兩項限制。他們想達成一項協議。為什麼沒能達成協議呢?Amodei: 這個過程有幾個階段,都是快速完成的,而且都是由他們給我們的那種非常有限的三天的時間窗口所決定的,他們給了我們一個最後通牒,要求我們在三天內同意他們的條款,否則,就會被指定為供應鏈風險或受到《國防生產法》的制約。我想我們稍後會談到那個。但在那段時間裡,雙方進行了幾次針鋒相對的交鋒。有一次他們發給我們的措辭,從表面上看似乎符合我們的條款,但其中包含各種措辭,比如“如果五角大廈認為合適”,或者,“為了做任何與法律一致的事情”。所以它實際上並沒有在任何方面,在任何有意義的方面做出讓步。它的後續步驟也都沒有在任何有意義的方面做出讓步。我們從一開始就想達成一項協議。如果你想瞭解五角大廈的立場,五角大廈發言人肖恩·帕內爾在前一天重申了他們的立場:我們只允許所有合法使用。這和他們給我們發來條款時一樣。所以他們沒有超出,也沒有以任何方式同意我們政府的(條款)。在任何有意義的方面都沒有例外。面對指控與連續性保障主持人: 總統今天對這種情況發表了回應,稱他們的自私自利,指的是Anthropic,正在危及美國人民的生命,使我們的軍隊處於危險之中,並使我們的國家安全陷入危險境地。你認為呢?你的回應是什麼?Amodei: 在我們昨天發佈的聲明以及我們今天發佈的聲明中,我們都表示,即使戰爭部,甚至即使是川普政府,對我們採取這些前所未有的措施,這種通常針對外國對手的供應鏈指定,我們也願意接受。我們說過,即使他們採取這些極端行動,我們也會盡一切努力支援戰爭部,提供我們的技術,直到我們完全脫離並讓願意做我們不願意做的事情的競爭對手接手為止。準備退出。所以我們已經提供了連續性保障。我們實際上深感擔憂。我們深切關注服務中斷問題,這正是當我們被指定為供應鏈風險時所發生的情況。當我們被指定為供應鏈風險時,他們會說,你必須從我們所有的系統中移除。我與一線人員、軍官交談過,他們說這是至關重要的。沒有這個,我們會倒退六個月、十二個月,甚至更久,所以我們才如此努力地嘗試達成協議。但再說一次,三天的最後通牒,將我們指定為供應鏈風險的風險,整個時間表都是由戰爭部推動的,而不是由我們推動的。我們正努力提供連續性。我們正努力提供服務。我們正努力提供它。我們正努力達成一項協議。主持人: 那麼這對美國人的安全意味著什麼呢?我想說幾點。Amodei: 短期來看,這意味著,這取決於戰爭部。我們仍在努力達成,我們仍在努力與他們達成一項協議。你們在談嗎?他們在和你們談嗎?我們收到了各種資訊。我們沒有看到任何,能夠滿足我們的,我們沒有看到任何能夠滿足我們關切的(東西)。但是,我指的是在廣義上,只要符合我們的底線,我們仍然有興趣與他們合作。主持人: 但聽起來你們的立場仍然相去甚遠,現在海塞斯(Hegeseth)部長已經認定你們對供應鏈構成風險,並行表了他的看法。那麼,你認為在現階段達成協議是否可能?Amodei: 我看看,協議需要雙方。我們這邊,願意為這個國家的國家安全服務。我們願意在已提供的條款下,在我們設定的紅線內,向政府所有部門提供我們的模型,包括戰爭部、情報部門,以及政府中更偏向民用的部門。我們一直都願意這樣做,我們不會因此感到冒犯。我們以這種方式提供技術的原因是我們希望支援,美國的國家安全。我們這樣做不是,僅僅是為了五角大廈的官員。我們這麼做不是為了某個特定的政府當局。我們這麼做是因為這對美國的國家安全有益。對美國而言,我們將繼續這樣做。私營企業權力與法律滯後主持人: 你為什麼認為讓像Anthropic這樣的私營公司在人工智慧的軍事用途上擁有比五角大廈更大的發言權更好呢?Amodei: 我首先想說的是,我認為這一點很重要。據我們所知,在實地操作中,沒有人真正遇到了任何這些例外的限制。這些,抱歉,這些只佔使用案例的1%,而且我們沒有證據表明它們在實地已經發生。現在,我再說一遍,我不能說他們的計畫是什麼,我們不知道。但我們沒有證據表明這些用例實際上遇到了麻煩。我們已經推廣到戰爭部和其他政府部門,而沒有遇到任何這些問題。現在,就這一個或兩個狹隘的例外情況而言,我確實認為從長遠來看,我們需要進行一場民主的對話。從長遠來看,我確實相信這是國會的職責所在。例如,如果存在國內大規模監控的可能性,政府購買美國人產生的海量資料,涉及位置、個人資訊、政治傾向,以建立個人檔案。而現在可以用人工智慧來分析這些資料。事實是,這在法律上是允許的,這似乎表明,對《第四修正案》的司法解釋還沒有跟上,或者國會通過的法律還沒有跟上。因此,從長遠來看,我們認為國會應該跟上技術發展的步伐。但是國會不是世界上動作最快的機構。而就目前而言,是我們這些人在前線看到這項技術。我期望戰爭部,我期望他們對這些問題進行深思熟慮,以便,主動地,思考這些問題。因此,我本以為他們不會有任何擔憂。然後,我們進行一場對話。但在沒有這種(明確指導)的情況下,我認為我們需要關注技術本身。我們需要考察它在可靠性方面的能力。我們需要審視它超越法律的途徑,以及它規避法律意圖的方式。這些是一些非常具體的領域,但我認為它們很重要。這些是美國人認為根本性的事情,不被政府監視的權利,我們的軍官能夠自己做出戰爭決策,而不是完全將其交由機器決定的權利。這些是根本性的原則。主持人: 但是,以維護根本原則的名義,美國人為什麼要相信你,一個私營公司的首席執行長,來做這些決定,而不是相信聯邦政府呢?Amodei: 對此,我將給出兩個回答。第一,我們是一家私營公司,是的。我們可以選擇出售或不出售任何我們想要的東西。還有其他提供商。如果國防部(DOW),不喜歡我們提供的服務或者我們提供服務的方式,他們可以選擇使用另一家承包商。這本該是處理此事的正常方式,我只想說,我本來會表示反對,但如果他們說,國防部,我們不想與Anthropic合作,我們的原則與你們不一致,我們將選擇其他模型,我也會尊重他們的決定。但他們(指某些實體)將這種做法延伸到了國防部以外的政府部門,並試圖懲罰性地撤銷我們超越國防部的合同,而且他們還做了這個供應鏈指定的事情,這基本上意味著,如果你是一家擁有軍事合同的私營公司,你就不能在涉及這些軍事合同的方面使用Anthropic。所以他們正在干預私營企業的行為。而且很難將此解釋為除懲罰性行為以外的任何其他方式。據我們所知,供應鏈指定從未應用於一家美國公司。它只應用於,像卡巴斯基實驗室這樣的對手,那是一家被懷疑與俄羅斯政府有牽連的俄羅斯網路安全公司,中國晶片供應商,被和他們歸為一類,考慮到我們為美國所做的貢獻,這感覺非常具有懲罰性和不恰當。國家安全所做的。技術指數級增長與長期願景主持人: 所以你說你為美國做了這麼多。國家安全做出了貢獻,你遵守了你想堅持的這兩項限制。你認為 Anthropic 在這裡比五角大廈更瞭解情況嗎?Amodei: 我們不看,自由市場和自由企業的一個特點是不同的參與者可以在不同的原則下提供不同的產品。請記住,這不僅僅是關於使用條款。這不僅僅是關於,這是我們的模型在法律上被允許做什麼。我們的模型具有個性。它能做某些事情。它能可靠地做某些事情。它不能可靠地做某些事情。我想我們是。一個很好的判斷者,知道我們的模型能夠可靠地做什麼,不能可靠地做什麼。而且我認為我們確實對這項技術如何再次超越法律有很好的認識。但我會說,我再說一遍,我實際上同意你的觀點,這在長期來看是站不住腳的。我不認為正確的長期解決方案是讓一家私營公司和五角大廈就此事爭論不休。我認為國會需要在此採取行動。我們正在考慮這個問題。我們正在考慮國會可以採取那些措施來實施一些安全護欄,這些護欄既不阻礙我們擊敗對手的能力,但又能以符合中國價值觀的方式擊敗我們的對手。但如您所知,國會的行動速度很慢。不。我認為在此期間,我們需要劃清界限。主持人: 在國會採取行動之前,您是說您會堅守立場嗎?但是,還有很多其他公司與美國做生意。波音公司為美國製造飛機。波音公司不會告訴美國。軍隊如何使用這些飛機。這有什麼不同?Amodei: 我再說一遍,它在兩個方面有所不同。首先,我希望再次指出,這項技術是新穎的,當一項技術已經成熟穩定後,那麼,我指的是,關於飛機有很多技術性的東西。但是,我認為,一位將軍對飛機的運作方式有相當好的理解。飛機已經存在很長時間了。主持人: 但是航空航天工業內部仍然有大量的創新。Amodei: 當然,但速度不是,不是我們看到人工智慧那樣的速度。人工智慧發展得太快了。我經常談到人工智慧是如何處於指數級增長趨勢上的。每一個,這些模型,用於這些模型上的計算量每四個月翻一番。我們從未見過如此快的創新速度。主持人: 但是如果這種速度繼續保持下去,那麼美國政府永遠追不上。那麼,如果你長期主張希望與美國合作,這種邏輯如何適用呢?政府來提供,適當的國家安全保障?如果對於可預見的未來,發展如此迅猛,國會都追不上,那為什麼還要對此避而不談呢?Amodei: 我認為只有一次追趕的機會。所以技術的發展速度很快。出現的問題數量很少,但卻非常重要。再說一次,我們只有兩個這樣的問題。主持人: 國內大規模監控,全自動武器。Amodei: 我們需要與國會進行對話,以幫助他們理解其中伴隨的一些風險。再說一次,這是世界上最美國化的事情。沒有人希望被美國監視。沒有人希望被美國監視。政府。競爭壓力下的價值觀博弈主持人: 與此同時,我們一些最主要的對手擁有的技術要麼正在迅速趕上我們,要麼最終會趕上我們,甚至可能已經趕上了。因此,如果我們的軍隊對於保衛美國人民、對於我們的民主、自由和共和國至關重要,我們為什麼要固守這個立場,說不,我們不打算合作呢?Amodei: 再說一次,這是一個抽象的論點,但讓我們看看實際的兩個用途。國內的大規模監控並不能幫助美國追上它的對手。國內大規模監控,是對政府權力的濫用,即使在技術上是合法的。所以我們可以排除這一點。全自動武器,在那方面,我實際上擔心我們可能需要跟上。它,不是,技術。技術還沒有準備好。因此,正如我所說,我們並非完全反對全自動武器。我們只是認為可靠性尚不具備,我們需要就監督問題進行對話。我們曾提議與國防部合作,在沙盒環境中幫助開發和試制這些技術,但他們對此不感興趣,除非他們從一開始就可以隨心欲地做任何事。再說一次,我們需要平衡生存的需要。沒有人比我更強調擊敗我們的對手,但我們需要戰鬥,我們需要以正確的方式戰鬥。這就像是說……有很多國家和對手。如果我們的對手犯下戰爭罪行,我們難道也應該犯下戰爭罪行嗎?我不是說這等同於戰爭罪行。我說的是,我們價值觀的精髓在於我們必須找到一種獲勝的方式。以一種維護這些價值觀的方式。我們不能只是徹底地走向低谷。我們必須有一些原則。而這些原則非常少。這項技術可以從根本上加速我們軍隊所能做到的事情。我與海軍上將、將軍們交談過,也與作戰指揮官們交談過,他們說,這徹底改變了我們能做的事情。而這些僅僅是我們迄今為止部署的非常有限的使用場景。那麼,為什麼我們要執著於那些違背我們價值觀的1%的使用場景,而我們可以追求那99%的、符合我們民主價值觀並保衛這個國家的使用場景呢?我們甚至可以嘗試研究那最後的1%的使用場景,以瞭解是否有方法能以符合我們價值觀的方式來執行它們。這就是我們的立場,我認為這是非常合理的。主持人: 給我一兩個可能出現的情況的例子。出錯。Amodei: 我們可能會想像出現問題的這類事情,主要有兩種類型。第一種,再次提到,是關於可靠性的問題,也就是它目標錯誤的人,擊中平民,無法展現出人類士兵應有的判斷力。友軍火力誤傷或射擊平民,或者就是其他錯誤的事情。我們不想銷售我們認為不可靠的東西,我們也不想銷售可能導致我們自己人或無辜的人喪生 殺害 的東西。第二點是關於監督的問題。如果你仔細想想,對於人類士兵來說,有一整套問責制,其前提是人類會運用他們的常識。假設我有一支由 1000 萬架無人機構成的軍隊,它們都由一個人或一小部分人協調。難道你看不出那裡存在問責制問題嗎,那種將權力集中到如此程度的做法是行不通的。這並不意味著我們不應該擁有這支部隊。再說一次,我不知道。也許在某個時候我們需要它,因為我們的對手會擁有它。但我們需要就問責制、誰掌握著按鈕以及誰可以說了算進行一次對話。我認為這是非常合理的。中立與愛國立場主持人: 川普總統稱Anthropic是一家左翼的“覺醒”公司。這個決定是否受到意識形態的驅動?看,我無法代表其他各方在做什麼,我無法代表其他方在做什麼。Amodei: 在做以及他們在做什麼。但是你,而我們在這裡,在Anthropic。看,我們,我認為,一直努力保持非常中立。我們在我們擁有專業知識的人工智慧政策問題上發聲。我們不對一般的政治問題持立場,我們也不考慮一般政治問題,只要有共同點,我們就努力合作。例如,我曾和總統、和麥康奈爾參議員一起在賓夕法尼亞州參加了一個關於能源供應的活動。為我們的人工智慧模型在美國的部署提供足夠的能源。我與總統談了話。我表示我同意他所做的許多方面。我們還就,利用人工智慧促進健康做出了承諾。我們還做了許多其他事情。當政府的人工智慧行動計畫出台時,我們表示其中許多方面,也許是大部分方面,我們都表示贊同。所以這種認為我們黨派化或者沒有做到一碗水端平的想法是錯誤的,我們一直以來都是審慎地做到了一碗水端平。再說一次,我們無法控制別人,即便是總統,對我們有什麼看法。那不是我們能控制的。我們能控制的是,我們可以保持理性,我們可以保持中立,我們可以堅持我們的信念。主持人: 從一到十,是否能與聯邦政府達成一致?關於這個在未來呢?還是你認為這已經結束了?Amodei: 聽著,我沒有水晶球。就我們而言,我們的立場是明確的。我們有這兩條紅線。我們從第一天起就設定了這些紅線。我們仍然,我們仍然在倡導這些紅線。我們不會在這些紅線上讓步。如果我們能與部門達成一致,如果我們能以相同的方式看待事物,那麼也許可以達成協議。主持人: 就我們而言,並為了美國的利益國家安全,我們,我們繼續希望讓這件事奏效。Amodei: 但是,再說一次,達成協議需要雙方共同努力。主持人: 如果你現在,今晚,有機會和總統談談,你會對他說什麼?Amodei: 我再說一遍,我們是愛國的美國人。我們所做的一切都是為了這個國家,為了支援美國。國家安全,我們正積極主動地向軍方部署我們的模型。所做的一切都是因為我們相信這個國家。我們相信要擊敗我們的專制對手。我們相信要保衛美國。我們劃定的紅線,劃定它們是因為我們相信越過這些紅線違背了美國價值觀。我們希望捍衛美國價值觀。而我們卻遭到了以供應鏈指定和《國防生產法》相威脅,這些都是政府對私營經濟前所未有的干預。我們行使了我們經典的憲法第一修正案賦予的權利,即公開發言並反對政府。反對政府是世界上最美國的事情。我們是愛國者。在我們所做的一切事情中,我們都捍衛了這個國家的價值觀。危機應對與法律挑戰主持人: 你認為Anthropic作為一家企業能夠挺過這次危機嗎?當總統,當赫格斯部長,塞斯發佈了關於供應鏈的指定推文時。他說了一些不精準的話,這遠遠超出了他們的法定權力範圍。他說任何有軍事合同的公司都完全不能與Anthropic做生意。法律上並非如此規定。我們發佈了一份聲明,指出了法律的規定。法律所說的只是,作為其軍事合同的一部分,任何公司都不得將 Anthropic 用於這些軍事合同。這是一個非常,一個影響範圍要小得多的情況。主持人: 那麼您對 Anthropic 能否挺過這一關感到有信心嗎?不僅是挺過,我們會過得很好。Amodei: 這一禁令的影響相當小。現在,這位部長發布推文的性質是為了製造不確定性,是為了製造一種讓人們相信影響會大得多的情況,是為了製造恐懼、不確定和疑慮。但我們不會讓其得逞。我們會過得很好。主持人: 批評人士稱五角大廈和白宮的做法是一種權力濫用。您是否認為這是一種權力濫用?Amodei: 我再次回到這個觀點,即這是前所未有的。主持人: 但這是否是濫用權力呢?Amodei: 這種情況以前從未發生過。這種指定從未對一家美國公司使用過。而且我認為他們在一些聲明、一些措辭中已經說得很清楚了,這是報復性的和懲罰性的。我不知道,我不知道還能稱之為別的什麼,報復性和懲罰性的。Amodei: 那麼你們會採取法律行動嗎?我們,我們,我已經聲明了,我們在聲明中已經聲明了。再說一遍,我們收到的只是一個推文。我們還沒有收到實際的供應鏈設計,政府還沒有採取任何實際行動。剛剛有一些推文,說了他們將要做什麼,說了他們聲稱將要做什麼。主持人: 你們沒有收到任何正式的。資訊嗎?Amodei: 我們完全沒有收到任何正式資訊。我們所看到的只是總統的推文以及赫格薩部長的推文。當我們收到某種正式行動時,我們將進行審查,我們將理解它,並將在法庭上對其提出質疑。主持人: 如果這就是他們與你們溝通的方式,你們認為這說明了他們在處理重大國家安全問題方面的能力如何?Amodei: 再說一次,我不想把這件事變成針對這個特定政府的討論。我不想把這件事變成針對特定個人的討論。我們正在盡我們所能支援美國的。國家安全。這就是為什麼我們致力於努力達成一項協議。如果我們找不到協議,這也是我們致力於以一種平穩的方式完成業務交接的原因,以便在我們的作戰人員進入衝突時,他們能夠繼續得到支援。這也是我們致力於採取我們認為不符合本國價值觀的行動的原因。這不關乎任何特定個人。這不關乎任何特定政府。這是關於維護正義原則的問題。主持人: Anthropic首席執行長達里歐·阿莫代。非常感謝您。Amodei: 非常感謝您的邀請。謝謝。 (Web天空之城)
Anthropic創始人:創業者別再去做“套殼”軟體賺快錢了,這個領域才有真正的終極護城河!
這是一篇基於 Anthropic 班加羅爾開發者大會(Builder Summit) 上 , CEO Dario Amodei 和 CTO Rahul Patil 最新演講內容的深度特稿。這次大會的內容含金量極高 , 不僅揭示了 Claude 未來的進化方向 , 更重要的是 , 它為所有開發者和企業指明了在“指數級變革”前夜的生存法則。“以前 , 軟體只是你在鍵盤上敲下的死命令;現在 , 軟體有了靈魂。”Dario Amodei 和Rahul Patil這兩位矽谷目前最炙手可熱的 AI 掌舵人 , 向全球開發者發出了一個震耳欲聾的訊號:我們正在進入一個“軟體擁有主權”的新時代。01組局者:矽谷最清醒的大腦與最硬核的基建狂魔在深入這場思想風暴之前 , 你必須知道站在台上的這兩個人是誰 , 這決定了這些資訊的含金量。Dario Amodei (CEO): 矽谷著名的“安全派”領袖 , Claude 之父。他不僅是技術天才 , 更是那個時刻在思考“AI 會如何重塑人類文明”的哲學家。當他說“生物學和醫學將迎來黃金時代”時 , 他不是在畫餅 , 而是在基於算力曲線做嚴謹推導。Rahul Patil (CTO): 真正的“基建狂魔”。他曾親手參與建構了全球四大雲平台中的三個 , 並在 Stripe 搭建了支撐全球金融流動的底層設施。如果說 Dario 是大腦 , Rahul 就是那個把大腦接入現實世界血管的人。他更關注如何讓 AI 在全球範圍內“跑”起來。02認知的降維打擊:滑向冰球要去的地方Dario 在演講中指出了目前企業和開發者最大的誤區: 短視。很多人在使用 AI 時 , 會抱怨“這個模型這兒做不到 , 那兒也做不到”。 對此 , Dario 給出了一個極具戰略眼光的建議: “不要為今天的模型建構應用。”他借用了冰球名宿韋恩·格雷茨基的名言: “滑向冰球將要去的地方 , 而不是它現在所在的地方。” (Skate to where the puck is going.)在 Anthropic 的內部視角裡 , 技術迭代的速度是驚人的。你覺得現在的 AI 處理長文件有點慢?你覺得現在的 AI 邏輯推理偶爾會斷線?“別擔心 , ” Rahul 補充道 , “如果一個應用在今天看起來只是‘勉強可行’ , 那麼幾個月後的新模型會讓它變得‘絕對可行’。”對於創業者來說 , 這意味著你必須具備“跨時間維度的想像力”。如果你只盯著當下的限制 , 當你把產品做出來時 , 你已經落後了。那些敢於在“技術還不完美”時就押注未來路徑的人 , 才能接住幾個月後技術爆發的紅利。03軟體的質變:從“執行者”到“決策者”Dario 提出了一個讓人細思極恐的觀點: 軟體的本質已經變了。在過去 27 年裡 , 也是 Dario 第一次來到班加羅爾的時候 , 軟體是沒有生命的。你寫什麼程式碼 , 它就跑什麼結果。但現在 , “軟體實際上正在思考 , 它在解讀 , 它在做決定。”這就帶來了一個巨大的命題: 信任(Trust)。 當軟體不再是死板的執行者 , 而是擁有了判斷力的“代理人(Agent)”時 , 我們該如何信任它?Rahul 進一步描繪了“AI Agent(智能體)” 的終極形態:它不再是你問一句、它答一句的聊天機器人。它是一個 “長跑運動員” 。你可以給它一個模糊的目標:“幫我最佳化這個季度的行銷策略”。 然後它會自己去跑資料、做測試、寫文案、甚至反駁你錯誤的觀點。 它會從第一天的生疏 , 進化到第 100 天的默契。 “真正的協作 , 意味著它會在你錯誤的時候頂撞你。”逃離“純軟體”的紅海 , 原子世界才是終極護城河在演講中 , Dario Amodei 給所有試圖通過“套殼”大模型賺快錢的創業者潑了一盆冷水。他直言不諱地指出: “如果你只是做一個純軟體的 UI 介面 , 那你的護城河幾乎為零。” 因為大模型的能力在不斷下放 , 今天你需要微調才能做到的事 , 明天的通用模型直接就能做。純軟體的壁壘 , 正如紙糊的窗戶 , 一捅就破。那麼 , 真正的護城河(Moat)在那裡? Dario 給出的答案是: 原子世界(The World of Atoms) , 特別是生物學和醫學。“難”就是護城河 為什麼是醫學?因為醫學“很難” 。你需要處理複雜的監管(FDA審批) , 你需要深厚的專業領域知識(Domain Knowledge) , 你需要面對物理世界的真實反饋(臨床試驗)。 Dario 強調: “正是因為這些困難 , 你才能建立起持久的業務。” 在純數字世界裡 , 程式碼可以被無限複製;但在原子世界裡 , 你無法複製一個臨床三期的實驗結果。那些敢於啃這塊硬骨頭的公司 , 將擁有最堅固的壁壘。AI 的“第一性原理”遷移 為什麼現在是進入醫學的好時機?因為 AI 的能力發生了質變。 Rahul Patil 指出 , Claude 擅長的不僅是寫程式碼 , 而是“推理(Reasoning)” 。如果一個 AI 能夠像物理學家一樣 , 利用 第一性原理 去推導複雜的物理公式 , 那麼這種推理能力就能 無損遷移到生物學和化學中。 AI 不再只是在“記憶”醫藥文獻 , 它開始像科學家一樣“理解”蛋白質的折疊 , “推導”分子的相互作用。被折疊的 100 年 這是整場大會最令人心潮澎湃的預測。 Rahul 甚至用“醫學研究的黃金時代(Golden Era of Medical Research)” 來形容未來。他預測: “想像一下 , 過去 100 年的醫學創新和救命藥物的研發 , 將在未來的 5 到 10 年內集中爆發。”對於開發者和創業者來說 , 這是一個巨大的訊號: 別再捲聊天機器人了。 去看看製藥 , 去看看基因編輯 , 去看看材料科學。那些能夠利用 AI 的推理能力 , 去撬動 物理世界原子 的人 , 才是下一個時代的贏家。04終局預判:鍵盤的消亡與醫學的奇點對於未來 , Anthropic 給出了兩個極具畫面感的預測。第一 , 互動的革命。 Rahul 大膽預言: “我們很快就會看到沒有鍵盤的 Claude。” 目前的 Chat(聊天框)只是 AI 的過渡形態。未來的 AI 是“環境化(Ambient)”的 , 它無處不在 , 卻又看不見。它會直接接管你的滑鼠 , 操作你的螢幕 , 甚至直接與物理世界互動。第二 , 人類壽命的飛躍。 Dario 對“AI + 生物學”寄予厚望。他認為 , 我們正在經歷“把 100 年的創新壓縮到 10 年” 的處理程序。特別是在醫學領域 , 擁有強推理能力的 AI 將像物理學家解構原子一樣 , 解構人體和疾病。這將是人類歷史上最偉大的 “醫學黃金時代”。05你要做看客 , 還是建設者?演講的最後 , Rahul 講了一個 1899 年的故事。 當時有人說:“所有能被發明的東西都已經被發明了。” 結果僅僅幾年後 , 專利局局長就感慨:“過去的一切發明 , 與即將到來的一切相比 , 都將顯得微不足道。”今天 , 我們再次站在了1899年。 你是那個覺得“AI也就這樣了”的人 , 還是那個準備好迎接“被折疊的 100 年”的建設者?06核心訪談/演講實錄精選為了讓您感受現場的思維密度 , 我擷取了部分精彩的問答和演講片段:Q1:對於正在建構 AI 應用的企業 , 你最大的建議是什麼?Dario Amodei: 最重要的事情是要有前瞻性。我兩年前就說過 , 不要為你現在手中的模型建構產品 , 要為你一年或兩年後的模型建構。 如果你是一個大企業 , 部署一個系統可能需要很久。不要針對現在的“第 4 步”去設計工作流 , 去設計完整的“10 步工作流” , 那怕現在的 AI 還有點吃力。 因為隨著每一次模型的發佈 , 能力都會階梯式躍升。那些最大膽、用最“昂貴”的方式去設想未來的公司 , 往往能跑在最前面 , 因為他們實際上是在為我們尚未發佈的“未來產品”做準備。Q2:除了程式設計 , 你們最看好 AI 在那個領域的爆發?Dario Amodei: 我最興奮的是 生物學和醫學 。如果你只是做一個純軟體的 App , 護城河其實很低。但如果你能結合物理世界的原子 , 比如醫療 , 那才是真正的壁壘。 AI 能夠將物理學的第一性原理推理能力遷移過來。這很難 , 你需要應對監管 , 需要專業知識 , 但正是因為難 , 它才能建立持久的價值。我相信我們即將迎來醫學研究的黃金時代。Q3:未來的 AI 互動形態會是什麼樣的?Rahul Patil: 今天我們大多數人是通過“聊天”來體驗 AI 的。 但我相信 , 我們很快就會看到“沒有鍵盤的 Claude” 。這不僅僅是語音互動 , 而是 “環境智能(Ambient AI)”。也就是 AI 在幕後主動運行。 這涉及到“Agent(智能體)”的三個核心能力:情境智能: 用了 100 天的 Agent 必須比用了 1 天的更懂你的組織架構和偏好。長程執行: 它能像科學家一樣 , 為了一個目標運行數周 , 進行 A/B 測試、自我糾錯。真正的協作: 它不僅僅是聽話 , 它要在你不理智的時候能夠反駁你(Push back)。Q4:對於全球開發者 , 現在的機會在那裡?Rahul Patil: 印度正在發生的事情是一個縮影。這裡的開發者正在用 AI 實現程式碼提交量的翻倍。 但我不僅看重程式碼。 如果你覺得現在的應用只是“勉強可行” , 請相信我 , 它很快就會變成“絕對可行”。 現在的模型能力在不斷攀升 , 但安全性和可控性也在同步提升。我們經常推遲發佈 , 直到我們 100% 確定它是安全的。所以 , 請大膽地去夢想那些看似“不可能”的應用 , 因為技術正在以你想像不到的速度填補這些鴻溝。 (New基地)
【上】Anthropic CEO 深度訪談:為什麼 2027 年是人類的最後一道門檻?
關於 AGI(通用人工智慧)的預測,市面上充斥著兩種極端:一種是線性的悲觀,認為“摩爾定律已死”;一種是盲目的狂熱。 Anthropic CEO Dario Amodei,這位物理學博士出身的“實幹派”,提供了一個基於資料的第三種視角。他認為,我們正處於指數級增長的尾聲——不是因為增長停滯,而是因為終點已近。 這個終點,也就是他口中的“資料中心裡的天才國度”,最早將在 2026 或 2027 年 到來。我們將用三篇文章來為大家詳細解讀。01 定義終局:“資料中心裡的天才國度”在長達 3 小時的訪談中,Dario 拒絕使用模糊的 AGI 概念,而是給出了一個工程學上的精確定義:“Country of Geniuses in a Data Center”(資料中心裡的天才國度)。這不僅是能通過圖靈測試的聊天機器人。Dario 描述的是這樣一個系統: 它在雲端 7x24 小時運行,擁有成千上萬個獨立的智能體。每個智能體的能力都等同於人類頂尖專家——無論是寫程式碼、做數學推理,還是設計複雜的生物實驗。他的時間表非常具體: 在排除“不可約減的不確定性”後,他認為在 2026 年或 2027 年 實現這一願景的機率極高。他甚至直言,認為 2035 年還實現不了是“瘋狂的”(Crazy)。02 暴力美學的勝利:“大計算團”假說為什麼他如此確信?這並非盲目信仰,而是基於他在 2017 年撰寫的內部檔案《大計算團假說》(The Big Blob of Compute Hypothesis)。核心邏輯簡單得令人髮指:別整那些花哨的技巧,只管堆料。 只要集齊以下幾個要素,模型就會通過“縮放定律”自動變強:原始算力(Raw Compute)海量資料(Quantity of Data)訓練時長可擴展的目標函數(Objective Function)七年來,從 GPT-1 到 Claude 4.6,行業的發展從未偏離這個假設。現在,強化學習(RL)也被納入了這個公式。就像 AlphaGo 自我博弈一樣,現在的語言模型正在通過“思考”(Chain of Thought)進行自我強化。03 五十億美元的豪賭:在這個牌桌上,不敢梭哈就是死預測未來很容易,但用身家性命去押注很難。Dario 揭示了 AI 巨頭們面臨的真實財務困境——這是一場關於“提前量”的俄羅斯輪盤賭。訓練一個前沿模型需要數年時間建設資料中心。這意味著 CEO 必須在今天決定 2027 年的算力採購量。買早了(模型能力沒跟上): 每年數十億美元的折舊會瞬間擊穿現金流,公司破產。買晚了(模型如期爆發): 當“天才國度”降臨時,你手裡沒有算力去承接潑天的需求,直接出局。Anthropic 的策略是“激進但留有緩衝”。他們在賭指數級增長會持續,賭那個“天才國度”會如期而至。這解釋了為什麼即便當前 AI 變現尚處於早期,矽谷的資本支出(Capex)依然在瘋狂飆升——因為在通往終點的最後一公里,誰也不敢減速。 (大尹隱於網)
Anthropic啟動IPO!CEO自曝內部算力財務模型:不確定性圓錐!回應泡沫:增長肯定放緩,舊晶片價值快速下降!規模依舊有效
我們買的算力規模,是在“即便是第 10 百分位的悲觀情景下”,大機率依然付得起帳。YOLO式下注,風險旋鈕擰的太狠了。我認為勝率會在我們這邊。幾個小時前,素有“華爾街、矽谷超級提問者”的DealBook 創始人、紐約時報首席財經記者Andrew Ross Sorkin,與 Anthropic 的 創始人 Dario Amodei 展開了一場年末對話。這次採訪背景一方面是大洋彼岸已經處於聖誕前夕,但更重要的一面是,昨天,Anthropic被曝出已經啟動IPO籌備工作,計畫最快2026年上市,估值或達3000億-3500億美元。在此之前,則是 Transformer 架構和 Scaling Law 終結的爭議,以及 Gemini 3 Pro 模型的爆火,OpenAI  內部拉響紅色警報。這些事件的接連發生,讓此前甚囂塵上的“泡沫爭議”和接下來AI模型的發展走向帶來了新一輪的不確定性。Dario在爆出了自家的算力財務模型,他們內部稱之為一個不確定性圓錐。如果我有 80% 的毛利率,我花 200 億美金買算力,可以支撐 1000 億美金收入。但問題在於,這個“不確定性圓錐”實在太寬了,很難避免在某一側犯錯。此前,Dario 就曾表示,Anthropic 計畫在 2028 年實現盈虧平衡。而對於 AGI 的實現路徑,Dario 對於 Transformer 架構依舊保持樂觀:我仍然認為是 “規模化 + 偶爾的小修小補” 就足夠了。對於業界一直擔心的GPU晶片的折舊周期,Dario 回應道:舊晶片的價值會快速下滑。我們在建模時,已經默認舊晶片價值會快速下滑,同時也假設晶片效率曲線會持續高速演進。對於自己經常發出警告這件事,Dario對美國AI監管隱隱表達了不滿:現在美國監管已經分成了兩個世界,應該讓真正最接近AI技術的人來發聲。對於自己曾說過的“90%的工作會被AI替代”言論,Dario說,那只是半句話,下半句則是——那怕 AI 完成了 90% 的工作,而不是 100%,人類的“剩餘 10%”反而會被放大 10 倍,有時候甚至需要 10 倍的人,去完成原來 100 倍產出的事情。問題不在“會不會替代”,而在“企業願不願意更多選擇創造新價值,而不是只做極致降本”。以下是這次採訪的整理內容,大家enjoy!泡沫存在:接下來速度一定會放緩 但有些公司卻在YOLO 式下注主持人(Andrew Ross Sorkin):今天下午的重頭戲從 Dario 開始。他是當今人工智慧領域最具影響力的人物之一,是 Anthropic 的聯合創始人和 CEO,這家公司以 Claude 模型聞名,是歷史上增長最快的科技公司之一,現在更是同時獲得了三大科技巨頭——亞馬遜、微軟和Google的支援。他比大多數人更早進入這個領域,早年在 BYU 做研究,後來加入Google,又成為 OpenAI 的早期成員,主導了 GPT-2 和 GPT-3 的研發。歡迎你來到現場。Dario Amodei: 謝謝邀請。今天可以聊的話題很多,包括——我們是不是正處在一個 AI 泡沫中?但我保證,我們會慢慢談到那個問題。主持人: 那我就直接問那個一開始提到的問題吧。你也承認,2014 年沒人想到 2025 年會走到今天這個程度。現在這個行業吸納的資金規模,幾乎代表了美國當前 GDP 增長的主要來源之一。我們是不是正處在某種泡沫中?是不是在過度投資?Dario: 這是一個非常複雜的問題,我必須把“技術本身”和“經濟層面”分開來看。從技術角度看,我非常堅定,我可能是最樂觀的那一類人之一。 但從經濟層面看,我確實有擔憂。即便技術真的兌現了承諾,生態裡如果有人在節奏上稍微踩錯一步,後果會非常嚴重。先說技術這部分。之所以我對技術進展並不太驚訝,是因為我和幾位後來成為聯合創始人的同事,最早系統性地總結過 AI 的“Scaling Law”——也就是只要你不斷加算力、加資料,在少量結構微調下,模型能力就會持續提升。像推理模型、測試時算力,本質上都是非常小的改動。我已經跟蹤這個趨勢 12 年了。最震撼的是:你用這樣極其簡單的方式訓練模型,它會在幾乎所有領域同步變強——程式設計、科學、生物醫藥、法律、金融、材料、製造業,這些正是整個經濟的核心價值來源。只看 Anthropic 自身,因為我們更偏企業級市場,我覺得更像一個“純粹的溫度計”。我們過去三年,收入每年 10 倍增長:2023 年從 0 到 1 億美元,2024 年從 1 億到 10 億,今年會落在 80 到 100 億之間。未來還會不會這樣漲?我不知道。但技術確實在推動價值,經濟回報也正在兌現。 它一定會放緩,但依然會非常快。所以我對“長期終局的經濟價值”是有信心的。主持人: 但問題在於,現在有公司每年要燒掉上千億美元,你們也計畫投 500 億。Sam Altman 去年的規劃數字同樣驚人。這是一次超級昂貴的下注。這個帳到底能不能算清,還是更多是一種“直覺賭注”?Dario: 這就進入我剛才說的第二部分——真正的困境來自於:“經濟價值增長速度”的不確定性,與“資料中心建設周期”的滯後性之間,存在巨大張力。 這是擺在所有公司面前的真實兩難。我認為有些參與者是在“YOLO 式下注”,把風險旋鈕擰得太狠了,對此我非常擔憂。主持人: 誰在 YOLO?Dario: 這個我不回答(笑)。但你可以換個視角想:如果你站在我這個位置,連續三年收入 10 倍增長,很自然會去問:明年會怎樣?如果你非常粗暴地外推,下一年可能是千億美元等級——我必須強調,我完全不相信這個數字。但它是數學上的上限之一。如果你從更理性的企業客戶、具體場景、銷售路徑去拆,可能是 200 億、300 億。所以我內部把它稱為一個“不確定性圓錐”——一年後是 200 億,還是 500 億,極其不確定。 我只能按最保守的一側去做規劃,但這種不確定性本身就足夠令人不安。算力財務模型 不確定性圓錐實在太寬了Dario : 還要疊加一個現實因素:資料中心建設有很長的滯後周期,通常是一到兩年。這意味著我必須在“現在”,甚至幾個月前,就決定:在 2024 年初要買多少算力,去服務 2027 年初那個收入規模下的模型。這中間存在兩個強耦合風險:第一,如果我買少了算力,我就沒法服務所有客戶,只能把他們推給競爭對手;第二,如果我買多了算力,而收入又沒跟上,我就付不起這些算力的成本,極端情況下甚至會面臨破產風險。這個“安全緩衝”本質上取決於我的利潤率。如果我有 80% 的毛利率,我花 200 億美金買算力,可以支撐 1000 億美金收入。但問題在於,這個“不確定性圓錐”實在太寬了,很難避免在某一側犯錯。Dario: 我們自認為是一家相對克制、負責的公司。因為我們主做企業市場,我覺得我們的商業模式更健康,利潤更穩,也更謹慎。但如果你換成另一種模式,比如純消費者業務,收入來源沒那麼確定、毛利也不穩定,再加上企業家本身就是那種“偏愛 YOLO、偏愛大數字”的性格,那風險旋鈕就可能被擰得非常狠。只要存在不確定性,就必然存在過度擴張的系統性風險。 我們每家公司都面臨這個問題,再加上彼此之間的競爭壓力,甚至還疊加了與威權國家“國家層面的技術競爭”,整個系統都會被推著往前走。這種風險是不可消除的,只能被管理。 但我確實認為,有些參與者並沒有管理好這種風險,而是在進行不明智的下注。主持人: 你說到這裡,其實大家心裡大概也知道你在暗指誰。你曾對投資人私下說過,Anthropic 計畫在 2028 年實現盈虧平衡;而 Sam Altman 說的是 2030 年。我暫且按他的演算法來算:他需要在兩年內從 740 億美元等級的虧損,轉為兩年後實現盈利。這個在你看來合理嗎?Dario: 說實話,我不瞭解任何其他公司的內部財務情況,也不可能評價別人。我只能回到我們自己的計算邏輯,也就是那個“圓錐式不確定性”:我們買的算力規模,是在“即便是第 10 百分位的悲觀情景下”,大機率依然付得起帳。再糟也會存在“尾部風險”,這從來不可能為零,但我們在盡力把風險控制在可承受範圍內,同時又要確保我們在競爭中不被甩開。我們在訓練和推理上都很高效,利潤結構也不錯。我認為勝率在我們這邊。主持人: 現在市場上很多人開始討論所謂的“循環交易”,以前我們管這叫“廠商融資”。尤其是輝達,以及其他一些公司,直接入股 AI 公司,而這些公司隨後又用這筆錢去買輝達的晶片,相當於形成了資金閉環。你怎麼看?Dario: 我們也做過類似的交易,只是不是某些玩家那樣的大規模操作。我不講具體案例,只講一個“標準化結構”的例子,解釋為什麼它在邏輯上成立:假設你要建 1GW 的算力規模,買晶片、建機房,總資本開支大概是 500 億美元,使用周期可能是 5 年,也就是每年攤 100 億。如果你是一家年收入 80—100 億、處在快速增長期的公司,現在就讓你一次性掏 500 億,現實中根本不可能。那怎麼辦?大型廠商站出來說:“我先投你 100 億,佔 20%,你先用這 100 億覆蓋第一年,其餘的慢慢按收入滾動支付。” 如果你已經接近 100 億年收入,那這並不是一個瘋狂的賭局。資料中心一年建成,第一年融資覆蓋,意味著你只要在兩年後做到 100 億等級收入,就能跑得通這套邏輯。從結構上看,這並不違背商業邏輯。Dario: 真正的危險只發生在一個場景:如果你一層層疊加這種結構,最後變成“到 2027 或 2028 年,我必須做到 2000 億美元年收入”,那你就一定是在過度擴張。規模,決定了一切的風險邊界。一批晶片到底能撐過幾年?舊晶片的價值會快速下滑 保守押注者會活下來主持人: 這裡還有一個關鍵變數,幾乎決定了整個行業的“投資算不算得過帳”——晶片的折舊周期。你買一批新晶片,它到底是有效四年、五年,還是八年、十年?這個假設不同,整個行業的財務模型就完全不同。你怎麼看?Dario: 我們在內部做的是非常保守的假設。嚴格來說,並不存在一個固定、統一的“折舊年限”。晶片本身可以跑很多年,真正的問題不是“它還能不能用”,而是有沒有更快、更便宜的新晶片出現,並且你的競爭對手已經在用它了。 一旦出現這種情況,老晶片的相對價值就會迅速下降,甚至一年之內就會發生。現在不止是輝達,各家都在推新一代 TPU、GPU。我們在建模時,已經默認舊晶片價值會快速下滑,同時也假設晶片效率曲線會持續高速演進。我們在 Anthropic 的所有假設,基本都站在極端保守的一側。 結果是:在“幾乎所有世界線”裡,我們都可以活下來。當然,極端尾部世界線一定存在,但我只能為我們負責,不能替別人背書。我也完全可以想像,有些公司正在“自我欺騙”,建立在過度樂觀假設之上。主持人: 所以,市場上真正理性克制的,其實就你們兩家?Dario: 我不知道你在指誰(笑)。我真的不知道。ps:這裡小編猜測,所謂市場上真正保持克制的這兩家,一家自然是Anthropic,另一家90%的機率是指的 Amazon。(同樣瞄準的是企業市場,而且沒有過度囤卡。用排除法的話,只剩下 Amazon 和 Apple 了。然而Apple 算是大模型玩家嗎???不大會。)不卷C端!GoogleGemini強歸強,Claude清風拂山崗主持人: 那我們換個話題,聊聊模型本身的競爭格局。就在過去一周,矽谷內部幾乎“情緒失控”,因為某位你我都認識的人發佈了新模型,引發了巨大震動。Saraparay 去年也來過這裡,現在大家突然意識到,原本被認為“資料天生佔優、理應贏麻了”的 Google,可能真的開始發力了。 Sam Altman 內部甚至發了“紅色警報”郵件,讓所有人回到工位衝刺下一輪突破。在你看來,現在這些模型的真實排序是怎樣的?以及,這種“當下時刻的領先”,到底有多重要?Dario : 這是少有的幾個時刻之一,我真心覺得 Anthropic 選擇了一條不同的道路,是一件值得慶幸的事。 我們走的是企業市場路線。你剛剛提到的另外兩位玩家,本質上都還是以 消費者市場為核心,雖然也在做企業業務,但主戰場仍在 C 端。這也是為什麼會出現“Code Red”那種等級的內卷——Google 要守住搜尋壟斷,而 OpenAI 的核心陣地也在消費者端,這兩家是在正面肉搏。對他們而言,企業只是“第二戰場”。而我們過去幾年一直在 圍繞企業真實需求反向打磨模型能力,最先爆發的是程式設計,現在已經開始延伸到金融、生物醫藥、零售、能源、製造等領域。模型戰爭當然重要,比如我們上周剛發佈的 Opus 4.5,在程式設計能力上幾乎被公認為目前行業最強模型。但我們真正走的是“不同維度”的競爭路線,所以對這種你來我往的短期廝殺,依賴反而更低。某種意義上,我們處在一個相對“優越”的位置:可以持續增長、持續迭代模型,而不用天天發“紅色警報”。企業級AI很挑模型,遷移成本很高 專精能力會和AGI長期並存主持人: 那這些公司真正的“護城河”到底是什麼?如果有一天真的到了 AGI 等級,所有模型是不是都會趨同?誰還會在乎你用的是那家?是“記憶能力”嗎?還是人格差異?很多人現在就是那個新就用那個。Dario: 我只能從企業側講我的結論。為企業打造的模型,和為消費者打造的模型,在“性格”和“能力結構”上差異非常大。 企業模型更少追求“黏性與娛樂感”,更強調編碼能力、高階智力活動、科學推理能力。我也不認同“只要到了 AGI,所有東西都會收斂成一個形態”。你看看在座的所有人,都具備“通用智能”,但我們沒有變成同一種人。專精能力會和通用智能長期並存。 再加上企業側的現實因素:公司會形成使用習慣,會和某個模型建立長期關係。即便是在 API 這種“賣裸模型”的業務裡,遷移成本也極高。下遊客戶適應了某個模型的“脾氣”,提示詞、互動方式都深度繫結,切換代價很大。這意味著企業級 AI 具備長期穩定的商業粘性。通往AGI,“規模化+小修小補”足夠了主持人: 一個純技術問題:你認為,現在這種基於 Transformer 的架構,加上純算力規模化,本身就足以通向 AGI 嗎?還是說還缺“某個關鍵成分”?Dario: 我仍然認為是 “規模化 + 偶爾的小修小補” 就足夠了。這些修改之小,小到外界可能根本不會注意到,只是實驗室裡的技術迭代。我已經觀察這些 scaling laws 超過 10 年了。主持人: 那你的時間判斷呢?AGI 在什麼時候?Dario: 我其實不太喜歡“AGI”“超人工智慧”這些詞,因為沒有清晰定義。它更像 晶片摩爾定律式的指數曲線——模型會在所有維度持續變強:新模型比上一代程式設計更強、科研更強,現在已經常態化拿下高中數學競賽,正在沖大學數學,甚至開始 首次產生“全新數學發現”。Anthropic 內部已經有人對我說:“我現在已經不寫程式碼了,我只是讓 Claude Code 先打草稿,我負責修改。” 這種狀態,在過去從未真正出現過。 這個節奏只會繼續加快,沒有所謂“質變奇點”,只是能力持續外推,模型的智力不斷抬升,收入曲線不斷往後面加零。美國AI監管已經分成了兩個世界主持人: 你在(美)監管、就業衝擊這些問題上也相當激進。白宮的 David Sacks 曾公開指控 Anthropic 正在通過“製造恐慌”推動監管,從而進行“高階版的監管俘獲”,並且已經傷害了創業生態。你怎麼回應?Dario: 我還是那句話:不要把這場討論變成對個人或單一機構的攻擊。 我從 2016 年起就開始公開寫 AI 風險和治理的論文,那時候 Anthropic 這個公司根本還不存在,更談不上什麼“監管俘獲”。而且我們支援的幾乎所有監管法案,都明確為中小型創業公司設立了豁免條款。 比如我們支援的 SB53 法案,年營收低於 5 億美元的公司根本不在適用範圍內。 我們在這件事上非常謹慎。真正該討論的,不是立場對立,而是具體政策是否合理。Dario: 你可以拋出各種指控,但這些說法和現實完全不符,無論是和我們實際支援過的法律條文,還是和真實情況,都對不上。現在其實存在兩個世界:一邊是 Andreessen Horowitz 等人,他們支援一個超級政治行動委員會;你們這邊也在建構另一個超級 PAC,試圖用完全不同的方式去影響這個行業的監管。問題是,為什麼?你們看到了什麼,是他們沒有看到的?我還是想把討論維持在政策層面。我對這項技術的看法是:我能理解一些人的樂觀來源,但我確實擔心,有一部分人把 AI 視為類似網際網路、通訊技術那樣的技術革命,覺得市場自然會解決一切問題。放在過去那些技術浪潮裡,這種看法也許是成立的。但真正最接近 AI 技術的人,並不這麼看。如果你去問那些真正做 AI 研究、真正建構模型的人——不是投資某些 AI 應用的投資人,也不是自以為懂 AI 的技術評論員——你會發現,他們一方面對潛力感到興奮,另一方面也非常擔憂。他們擔心國家安全風險,擔心模型對齊問題,擔心 AI 對經濟結構的衝擊。 舉個例子,有人曾提出要在十年內凍結所有監管,或者凍結州一級監管,而聯邦層面又沒有統一框架。這種提案去年夏天就出現過,上周又嘗試了一次,結果再次失敗,因為它極不受歡迎。連普通大眾都清楚,這是一個全新而且極具力量的技術。我可能是對 AI 正面效果最樂觀的那一類人之一。 我寫過一整篇文章《Machines of Loving Grace》,我在裡面說,AI 甚至可能把人類的壽命延長到 150 歲。再往後推,當資料中心裡真的出現“天才之國”,我們將擁有一個比任何人類都更快做出生物學發現的虛擬生物學家;它可能把經濟增速推到 5% 甚至 10%。老實說,我對這項技術的樂觀程度,可能比很多自稱“技術布道者”的人還要高。 但一切如此強大的東西,都不可能沒有巨大的副作用。作為一個社會,我們必須提前思考這些代價。 如果你說未來十年都不去監管這種技術,這就好比你在高速路上開車,然後決定把方向盤拆掉,因為“未來十年我都不需要轉向”——這在邏輯上是說不通的。老闆們不應該只做極致降本,而忽視創造新價值 90%的工作被AI替代,但剩下的10%會被放大10倍主持人: 那我們就談談其中一個最具體、最現實的風險——就業。除了駭客攻擊這些問題,你最近在《60 Minutes》裡也談到過工作崗位。我想知道的不是“有沒有可能”,而是,如果真的出現大量入門級崗位被替代,你認為應該怎麼應對?Dario: 我之所以不斷髮出這些警告,並不是為了當什麼末日預言家,而是因為“發出警告本身,就是解決問題的第一步”。如果我們不提醒自己風險的存在,就相當於在雷區裡閉著眼睛往前走;如果我們看見了地雷,就可以繞開它。我這段時間在認真思考這些問題,在 Anthropic 內部也是一樣。現在 Claude 已經開始為我們寫大量程式碼,我們也在親身經歷“工作如何發生變化”。我把應對方式分成三個層級,從短期到長期,也對應從企業就能推動,到需要整個社會投入更多資源。第一層,是企業自身與客戶層面的調整。 每一家客戶都會面臨同樣的權衡,這不是簡單的“取代或不取代”。一部分場景中,AI 會直接完成原本由人類完成的工作,比如保險理賠流程、KYC 全流程自動化,這些都可以端到端由 AI 完成。結果就是:更高效率、更低成本、更少人力。但還有另一種路徑——那怕 AI 完成了 90% 的工作,而不是 100%,人類的“剩餘 10%”反而會被放大 10 倍,有時候甚至需要 10 倍的人,去完成原來 100 倍產出的事情。問題不在“會不會替代”,而在“企業願不願意更多選擇創造新價值,而不是只做極致降本”。 前一種他們一定會做,我們也不打算攔;但如果他們願意更多做第二種,新增崗位也可能超過被替代的崗位。第二層,是政府的介入。 我並不把“再培訓”視為萬能解法,但它一定是必要選項的一部分。企業會做,企業也必須和政府一起做。但從財政層面看,我認為政府遲早要介入。我不確定具體是稅收工具,還是其他政策工具。但在一個高速增長的世界裡,我們曾做過一份報告,即便是今天這些模型,也已經能讓生產率每年提高 1.6%。這幾乎意味著生產率的翻倍,而且模型還在不斷變強。我認為未來有可能到 5%,甚至 10%。 這是一塊極其巨大的“蛋糕”。如果財富過度集中,這塊蛋糕本身也足夠大,大到我們完全有條件照顧到那些並未直接從 AI 中受益的人。第三層,是更長期的社會結構問題。 如果一個社會真正建構出了強大的 AI,它的運行方式必然會發生變化。回到凱恩斯在《我們後代的經濟前景》中提出的“技術性失業”,他設想他的孫輩也許每周只需要工作 15 到 20 個小時。這是一種完全不同的社會結構。當然,總有人會選擇拚命工作,但是否可能出現這樣一個世界:對很多人來說,工作不再是生活的絕對中心,意義的來源發生轉移,工作不再只是為了生存,更偏向於實現感?這種可能性真實存在。 我不是在提任何自上而下的規劃,我只是認為,社會終究會在後 AGI 時代,自己找到新的運行方式。這三層變化,從企業層面最容易、最快發生,到政府層面需要共識,再到社會結構層面最慢、最難推進。但未來很多年裡,我們三件事都必須一起做。主持人: Dario,我真心希望你還能再回來,和我們繼續討論這三件事該怎樣一步一步落地。非常感謝今天這場精彩的對話。Dario: 謝謝你,Andrew。謝謝大家。 (51CTO技術堆疊)
Anthropic CEO:五年內,AI 會真正替人,誰是第一批?
上周,在 Dreamforce 2025 峰會,Anthropic 聯合創始人兼 CEO Dario Amodei 說了一句引發廣泛關注的話:我對短期內 AI 的互補性依然樂觀,但我也必須坦白:兩到五年內,真正的替代將開始出現。這不是科技行業第一次有人談“AI 替代人類”。不同的是,Amodei 說這話時,Anthropic 內部已經發生了翻天覆地的變化: 他們的團隊裡,超過 90% 的程式碼已由 Claude 自動編寫,Bug 定位、系統偵錯甚至產品重構都由智能體完成。人類工程師的角色,不再是寫程式碼的人,而是審查 Claude 工作的人。這意味著,“AI 替代”不再是科幻電影裡的威脅,而是從 Anthropic 辦公室裡的一行行程式碼開始,在真實的生產系統裡一步步落地。但 Amodei 的警告,不止是給工程師的。“這不會只發生在開發者身上,”他補充說,“保險、金融、醫療等行業的企業客戶已經在用 Claude 執行端到端任務。被替代的第一批人,往往是工作流程裡那些最容易被自動化的崗位。”“AI 取代人類”這件事,從理論進入了倒計時。接下來,問題不再是AI 會不會替你,而是誰會先被替?他們是怎麼一步步被替的?而你,又該如何重新定義自己的角色?第一節|替人的起點:端到端能力今天很多人說 Claude 會寫程式碼,但 Dario Amodei 的重點根本不是寫程式碼,而是它能做完一件完整的事。他觀察到:以前 AI 只是幫你寫幾行程式碼,現在它可以偵錯系統、修復 Bug、完成整個部署流程。換句話說,不再是你寫主力、AI 輔助,而是 Claude 把一件任務從頭到尾做完,人來稽核修改。角色變了,關係也變了。在 Anthropic 內部,這個轉變已經開始落地。Dario 舉了一個他們真實發生的案例:我們最近發佈模型時,叢集出現 Bug,工程師找了好幾天沒找到。後來我們讓 Claude 去排查,它居然找出了一個大家都漏掉的隱藏問題。從 AI 按你指令做一件事,到 AI 自己能判斷、執行、修復,走完整個閉環。而且這不是偶發事件。Dario 明確說:“我們現在團隊裡的程式碼,90% 都是 Claude 寫的。人類的角色更像是編輯者、監督者。”實際上,工程師不再是執行者,而是把 AI 當成“實習生”或“外包員”來分配任務、檢視成果、保證質量。不僅是 Anthropic 內部,Claude 的企業使用者也在驗證這點。Anthropic 聯合創始人 Mike Krieger 在早前訪談中也透露:我們有客戶讓 Claude 連續運行 30 小時,完成了一項複雜的系統重構。30 小時,非人類值班,任務不中斷。這不再是對話模型,而是長期運行的虛擬執行者。它能記住目標、追蹤上下文、發現並糾正問題。做的不再是語言生成,而是任務交付。在10 月 20 日 與製藥巨頭禮來(Lilly)首席資訊官 Diogo Rau 的對話中,他說:“不要被我們能用 AI 做那些小事這種想法限制住。有一個現有流程,它有 20 個部分,你想在第 5 部分和第 12 部分引入 AI,這實際上很困難。但一年後,AI 可能就能從第 0 部分到第 20 部分端到端完成。”如果模型在一年後才足夠強大,而你那時才開始部署,就會再延誤兩年。要對技術進步的速度有信心,現在就開始為端到端變革做準備。這段話點破了替代的本質:因為替代不是某個時刻突然發生的,而是從“輔助”變成“交付”的那一刻開始的。當 Claude 不只是回答問題、生成文字,而是能:理解任務目標呼叫工具和代理自主運行並糾錯交付最終結果那你還需要幾個人做這件事嗎?我們過去總以為 AI 只是幫你快一點,但 Dario 的話意思很明確:Claude 能做端到端任務的那一刻,就意味著你不再需要中間這些環節。程式碼只是開始。真正替人的,不是 AI 變聰明了,而是它開始像系統一樣工作:持續執行、串聯流程、自主呼叫、糾錯最佳化。這套執行力,才是 AI 從工具向崗位躍遷的分水嶺。第二節|第一批被替:中間環節的人我們常以為被 AI 替代的會是低技術、低學歷、低門檻的崗位,比如文員、助理、客服。但 Dario Amodei 給出的判斷恰恰相反。他說:不是說人類沒有事情可做,但兩到五年內,整個經濟體系都會被深度重塑。影響最大的不是個別崗位,而是所有環節都可能被壓縮、被替換、被重組。換句話說,AI 替代的並不是誰技術差,而是誰在流程中傳遞資訊、而不是創造結果。只要一份工作裡,沒有核心創造,而只是把資訊從 A 傳到 B,再從 B 整理成 C,那這件事 Claude 能替你做,而且可能還更快、更便宜、不出錯。你會發現,很多看起來有技術含量的中間環節崗位,其實只是資訊搬運工:把會議內容整理成報告把客服反饋總結成周報把資料填進表格,再匯出成 PPT把行銷計畫分解為具體工單,下發至不同部門這些工作的共同特徵是:資訊已有步驟明確不涉及複雜判斷成果可驗證而這正是 AI 最擅長的工作。Mike Krieger 補充了一個 Anthropic 客戶的真實案例:有客戶在財務部門用 Claude 自動生成分析 Excel 表格,Claude 會自己理解資料、做推導、畫圖表。不是把 Excel 做成工具給人類用,而是 Claude 直接接管整套流程。所以這不是一場程式設計師和 AI 的戰爭,而是“中間環節的人”和“做完整件事的人”之間的更替。再進一步看,只要一家公司使用 AI 來:審查合同 → 整合文件 → 寫會議紀要歸檔工單 → 生成 FAQ → 自動發郵件撰寫預算 → 分析花費 → 出年度報告那些專門做這些事的崗位,還需要幾個人?因為過去一項工作要三四個人輪流做,現在 AI 一步跑完。這,就是第一批會被替的現實依據。Dario 的判斷不是基於情緒,而是他們內部已經發生的變化:我們沒有解僱工程師,但我們團隊裡,每個人的角色都在重新定義。這句話的意思很清楚:AI 不是一刀切,而是讓原本的人力變得邊緣化。先被替的,正是那些沒有決策權和創造權的崗位。第三節|新工作方法:不是幹活,而是指揮 AI 幹活AI 真正開始替人的那一刻,很多人最直覺的擔心是:那我們是不是要沒工作了?但 Dario Amodei 在 Dreamforce峰會上給出了一個出人意料的答案:你可能需要更多人,因為他們可以獲得更大的槓桿效應。工程師可以變得十倍更有生產力。AI 在替人,為什麼還需要更多人?IG Group 案例:他們的分析團隊每周節省 70 小時,但這些時間被重新投入到更高價值的戰略工作中。某些用例的生產力翻倍,3 個月就實現了 ROI。Cox Automotive 在 VinSolutions CRM 中使用 Claude 後,消費者諮詢響應和試駕預約數量翻了一倍多。Palo Alto Networks 讓 2500 名開發者使用 Claude,沒有任何 Claude 經驗的初級開發者完成複雜整合任務的速度快了 70%。這些案例的共同點是:人沒有被“替掉”,而是“角色”升級了。但這個轉變並不容易。一項針對 16 名經驗豐富的開源開發者的研究發現:當他們使用 AI 工具時,完成任務的時間反而增加了 19%。開發者預測 AI 會讓他們快 24%,結果卻慢了 19%。為什麼?因為有經驗的開發者有大量上下文,而 AI 沒有。他們需要把自己的問題解決策略改造成 AI 能理解的形式,還要花時間偵錯 AI 的輸出。但學會管理 AI,需要時間和練習。而時間,可能不多了。史丹佛大學的研究顯示,22-25 歲軟體開發者的就業率自 2022 年底以來下降了近 20%,因為 AI 工具正在接管過去分配給初級員工的常規編碼和資料任務。哈佛商學院教授 Christopher Stanton 警告說,隨著僱主重新定義早期職業角色,工資可能會下降。但與此同時,Salesforce 的首席人事官表示,公司正在大規模招聘新畢業生,2025 年夏天接納了 1000 名實習生。她指出,現在有很多 6 個月前根本不存在的新崗位。未來,不是所有人都會失業,是工作角色正在被重新定義。那麼,什麼樣的人能適應這種變化?真正高價值的人,能做到:清楚表達需求合理分配任務給 AI驗證 AI 的工作成果AI 出錯時知道怎麼糾正這,就是 “AI 統籌師”。Dario 在 Dreamforce 上明確表示:我很擔心,特別是人們適應的能力,因為工作變化得太快了。這不是危言聳聽,而是正在發生的現實。時間窗口,只有兩到五年。結語|不是會不會,而是什麼時候Dario 說得很明白:“不是替代,是重排分工。”AI 不再是工具,而是能獨立完成工作的虛擬同事。它能端到端跑完流程,找出人類漏掉的問題,連續工作不停歇。真正被替的,不是崗位,而是那種只會做一環、不懂用 AI 的人。Anthropic CPO Mike Krieger 則表示:我們建構的是可信賴的虛擬同事。不是輔助,是上崗;不是幫你,是幹完你幹不完的。接下來兩到五年,變化可能會比大多數人預期的更快。 (AI 深度研究員)
Anthropic CEO再預警:未來5年砍掉一半入門崗,失業率10–20%
資料顯示,僅2025年開年以來,美國已有超過一萬個崗位因為引入AI而被裁撤。Anthropic CEO Dario Amodei認為AI技術的擴散對就業和社會的衝擊,已經到了必須向全世界預警的地步。如果你現在正在找工作,那AI簡直就是個壞消息。短短幾個月裡,美國科技公司和政策層對「AI如何影響就業」的討論,突然顯得直白又冷酷:「AI將帶來企業重組,這意味著更少的崗位,更多的裁員。」「是繼續花錢請工程師,還是乾脆多買幾塊GPU來搞AI,企業需要做出抉擇。 」不少科技大佬也公開承認,一些崗位會更快被機器承擔,應屆生步入職場的入門級崗位也在不斷減少。比如,Anthropic CEO Dario Amodei就再次重申了他之前的觀點:未來五年內,最多一半的入門級辦公室崗位可能被淘汰,並可能把失業率推至10%–20%。AI重組企業帶來更少崗位和更多裁員華爾街所追捧的「更少的工人、更多的算力與軟體」的AI故事,背後的真相,其實是日益減少的崗位,以及接連不斷的裁員。比如,Reddit上就有人質疑:高管們對媒體吹AI,只是為了用它來做裁員的擋箭牌。耶魯管理學院教授Jeffrey Sonnenfeld認為「AI警告」具有「疫苗效應」,它可以幫助CEO為未來裁員鋪墊敘事,不至於讓員工太震驚。不可否認,現實中有這方面的因素,但不少科技大佬更喜歡用的的一個詞是——企業重組。在近期紐約的一場科技峰會上,多位CEO都談到了它:「要以技能和能力為核心重新定義員工體系,而不是單純按人頭來配置」。在新組織架構中,中層管理崗位可能會減少,層級更扁平,變為頂端與底層兩頭多,中間少的「槓鈴型」組織。所謂企業重組,潛台詞就是更少的崗位,更多的裁員。用Altimeter Capital合夥人Apoorv Agrawal的話來說,企業將面臨如下抉擇:是繼續花錢請工程師,還是乾脆多買幾塊GPU來搞AI。而且,隨著AI的滲透,企業還將迎來更多結構調整,AI公司也成為AI重組的重要策源地之一。Amodei提到在Anthropic內部,許多人過去一年的工作已經發生了巨大變化:這不僅體現在他們產出是之前的兩到三倍,也體現在他們的工作內容上。他們不再是寫程式碼,而是在管理一整套AI系統。由於這些變化,他們需要重新思考在Anthropic的角色。在Amodei看來,這些發生在AI公司內部的變化,未來幾年也會發生在所有使用AI技術的其他企業身上,「更直白地說,只要公司有為股東創造價值的受托責任,能用技術提升生產力,他們就會用。」據獵頭機構Challenger月報顯示:僅2025年至今,美國已有超過一萬個崗位明確因為AI被引入而被裁撤。比如,Salesforce CEO馬克·貝尼奧夫就曾公開宣稱:支援團隊崗位從約9,000人降至5,000人,部分工作由AI代理承擔。Salesforce CEO Marc Benioff表示,客戶支援部門的AI代理正在取代人類崗位那些崗位將最快被AI衝擊?奧特曼近期曾多次表示,客服/技術支援將最早被替代,隨後可能波及程式設計師。他還預判崗位更替周期將被顯著壓縮。初級白領崗位受衝擊最劇烈,有資料顯示:自2023年1月以來,入門級職位的招聘減少了35%,大型科技公司和成熟初創公司中,少於1年工作經驗的新員工入職率在2019年至2024年間下降了50%。在近期的一次AI科技峰會上,Anthropic CEO Dario Amodei再次重申了他之前的觀點:未來五年內,最多一半的入門級辦公室崗位可能被淘汰,並可能把失業率推至10%–20%。受影響方向包括法律、金融、諮詢等。Brookings學者Mark Muro轉述Amodei觀點:入門白領50%或被淘汰,失業率或達10–20%。9月份,聯準會主席Jerome Powell在談到AI對就業的影響時提到,AI可能減少入門級崗位,衝擊應屆大學畢業生的就業市場。從企業來看,因為對AI的過度追求,而忽視了初級崗位,這也是一種短視行為:一方面,很多AI技術還不能賺錢,也有不少嘗試採用AI的公司最終都放棄了,這說明AI還沒真正成熟,遠沒到可以完全充當「AI員工」的時候。但更為根本的是,如果企業不再招聘年輕人進入初級崗位,眼前可能省了成本,但長遠來看卻會吃大虧,因為等於放棄了將組織經驗和知識傳承給下一代的機會。倫敦政治經濟學院經濟學家Luis Garicano就批評AI自動化初級任務,摧毀了未來專家的「培訓基地」,企業將面臨「後繼無人」的挑戰。如何應對AI的崗位大清洗?AI將會大規模衝擊就業市場,在美國政府和科技界已經達成共識。但在如何應對這場就業風暴,各方並沒有一致的看法。在近期的「Axios AI+ DC」峰會上,Dario Amode與在場多位政商代表就如何應對AI對就業的衝擊問題,同台交鋒。各方爭議指向一個重要問題:美國政府要不要出手為勞動者托底?怎麼托,托到那一步?這也是未來幾年美國政府最具影響力的關鍵決策之一。Dario Amodei是「預警派」。他再次拋出前文提到的AI可能引發「白領大裁員」的預測,他認為目前AI快速發展引發的就業危機,已經到了向世界發出預警的程度。「我們是技術樂觀主義者,我們認為這項技術前進的速度遠比大多數人預想的要快。」Amodei認為當前比較重要的事情,是幫助人們適應AI技術。他建議美國政府出面解決問題,尤其是在轉型過渡期為大家提供兜底政策,他還提議可以考慮對AI公司徵稅。白宮經濟顧問Jacob Helberg與Amodei不同的是,白宮經濟顧問Jacob Helberg並不認同這套預警邏輯,他更相信通過私營部門推動就業市場的適應轉型。「認為政府必須手把手幫助每一位被裁員的人,這其實是低估了人們的應變能力,那種自上而下、政府全權解決一切的思路,其實也低估了私營部門強大的適應力和創造力。」Jacob的意思是不要把政府當保姆,也別低估人的應變能力,以及企業的創造力。在兩種對立觀點之間,還有一種中間路線:比如新建公共就業服務機構,為年輕人提供就業機會;或者由科技公司出錢設立公共「信託基金」,對勞動者進行技能提升和再培訓。其實,幫助勞動者對AI公司也有好處:如果大家都沒工作,他們的客戶也就不存在了。在AI浪潮之中,需要的是整個社會的共同進化,沒有誰可以獨善其身。 (新智元)
【DeepSeek】為什麼Anthropic CEO 對DeepSeek和中國AI 的惡意這麼重?
一位科學家,幾個月前寫了一篇文章,宣示了他和他的公司透過強大的人工智慧解決全人類身心健康、心理疾病、貧窮、和平、工作與生活的意義等諸多方面的美好善意。幾個月後,還是這名科學家,又突然發佈了一篇文章,強烈呼籲不應該讓任何一塊美國的晶片出口到中國,以限制中國人工智慧的發展,維繫人工智慧的「單極世界」(我很震驚他會赤裸裸地使用這個詞彙)。這件事,怎麼看都讓人覺得割裂,以及那麼一絲虛偽。 這個人就是人工智慧公司Anthropic 的創始人和CEO Dario Amodei,義大利裔美國人、神經物理學博士、資深AI 科學家、昔日的OpenAI 研究團隊靈魂人物之一、中國公司百度的深度學習實驗室早期員工、號稱將打造最強大和安全的AI 的理想主義者、OpenAI 最重要的競爭對手的創始人,以及現在,美國對中國AI 全方位無死角禁運最激烈的呼籲者,沒有之一。 儘管An​​thropic 和它旗下的Claude 系列模型在中國公眾當中的知名度相當有限,但畢竟,它是目前世界上最受AI 應用開發者歡迎的大語言模型的提供者,在中國的AI 研究人員和開發者群體中也有著相當多的支援。但一夜之間,許多中國的AI 從業者公開表示:Anthropic 和Amodei 本人失去了他們最基本的尊重。 這就是一篇「檄文」的效應。
獨立發現不代表創新,你可以獨立發現火但你沒有創新。科學家的邏輯是如此的嚴謹以至於以你的智商根本看不懂。這篇垃圾文還是刪了吧,丟人現眼的舔狗。
1
舔嗎?? 舔美視角的典型特徵就是,對的事情只有美國能作,好的表現只有美國能作。 其他人有一點點點表現,就是不妥。主角只能是美資本菁英一族。 Alstom Plaza Accord NASA尼爾遜登月發言 臺灣偷走晶片製造......美國至上、資本團體利益至上。 而開源=斷相關資本財團財路。 支持並祝福其他地區的人努力作好自己手上的事。 人不必是為了美國而活。 美股艾大叔也加油。